از آنجا که هوش مصنوعی (AI) به طور فزاینده ای برای کاربردهای مهم مانند تشخیص و درمان بیماری ها مورد استفاده قرار می گیرد ، پیش بینی ها و نتایج مربوط به مراقبت های پزشکی که پزشکان و بیماران می توانند به آنها اعتماد کنند ، به مدلهای یادگیری عمیق قابل اطمینان تر نیاز دارند.
در یک نسخه اخیر (از طریق وب سایت دسترسی آزاد دانشگاه کرنل arXiv) موجود است ، تیمی با هدایت یک دانشمند رایانه آزمایشگاهی ملی لارنس لیورمور (LLNL) یک رویکرد یادگیری عمیق جدید را با هدف بهبود قابلیت اطمینان مدل های طبقه بندی کننده طراحی شده برای پیش بینی انواع بیماری از تشخیص ارائه می دهد. تصاویر ، با یک هدف دیگر ، امکان تفسیر توسط یک پزشک متخصص پزشکی را بدون قربانی کردن دقت انجام می دهند. این رویکرد از مفهومی به نام کالیبراسیون اعتماد به نفس استفاده می کند ، که پیش بینی های مدل را بطور سیستماتیک تنظیم می کند تا مطابق انتظارات متخصص انسان در دنیای واقعی باشد .
جی تیاگاراجان ، نویسنده اصلی و دانشمند محاسباتی LLNL ، توضیح داد: "قابلیت اطمینان یکی از معیارهای مهم است زیرا AI در برنامه های پرخطر استفاده می شود ، جایی که عواقب نامطلوب واقعی به وجود می آید." "شما نیاز به یک نشانه سیستماتیک در مورد چگونگی اطمینان مدل در شرایط واقعی که در آن استفاده خواهد شد وجود دارد. اگر چیزی به سادگی تغییر تنوع جمعیت می تواند سیستم شما را خراب کند ، باید بدانید که به جای استقرار آن و بعد بفهم
در عمل ، تعیین میزان اعتبار مدلهای آموخته شده ، چالش برانگیز است ، بنابراین محققان "طرح قابلیت اطمینان" را معرفی کردند که شامل متخصصان حلقه استنتاج برای آشکار کردن مبادله بین استقلال مدل و دقت است. Thiagarajan توضیح داد که با اجازه دادن به یک مدل می توان پیش بینی کرد که اعتماد به نفس در آن کم است ، ارزیابی جامعی را در مورد میزان اطمینان مدل ارائه می دهد.
در مقاله ، محققان تصاویر پوستی از ضایعات مورد استفاده برای غربالگری سرطان پوست را در نظر گرفتند - هر تصویر در ارتباط با بیماری خاص: ملانوما ، نوروس ملانوسیتیک ، سرطان سلول پایه ، کاراتوز اکتینیک ، کراتوز خوش خیم ، درماتوفیبروما و ضایعات عروقی. محققان با استفاده از معیارهای معمولی و توطئه های قابل اطمینان ، نشان دادند که یادگیری مبتنی بر کالیبراسیون در مقایسه با راه حل های یادگیری عمیق ، ردیابهای دقیق و مطمئن تری تولید می کند. آنها برخلاف 74 درصد توسط شبکه های عصبی استاندارد ، در این معیار به چالش کشیدن 80 درصد دقت به دست آوردند.
با این وجود ، مهمتر از افزایش دقت ، کالیبراسیون پیش بینی روشی کاملاً جدید برای ساخت ابزارهای تفسیر در مشکلات علمی ارائه می دهد. این تیم یک رویکرد درون نگری را ایجاد کرد ، که در آن کاربر فرضیه ای را درباره بیمار وارد می کند (مانند شروع یک بیماری خاص) و مدل شواهد خلاف واقع را برمی گرداند که حداکثر با این فرضیه موافق است. آنها با استفاده از این تحلیل "چه-اگر" توانستند روابط پیچیده ای را بین طبقات نامناسب داده ها تشخیص دهند و نقاط قوت و ضعف مدل را روشن کنند که در غیر این صورت آشکار نخواهد بود.
تیاگاراجان گفت: "ما در حال تحقیق در مورد چگونگی ساختن ابزاری بودیم كه بتواند از استدلال پیشرفته تر و یا استنتاج حمایت كند." "این مدلهای هوش مصنوعی بطور سیستماتیک روشهایی را برای به دست آوردن بینشهای جدید با قرار دادن فرضیه شما در یک فضای پیش بینی فراهم می کنند. سؤال این است ،" چگونه می توان از نظر تصویر اگر شخصی به یک بیماری در مقابل بیماری B مبتلا شده است ، نگاه کنید؟ " روش ما می تواند محتمل ترین و پرمعنی ترین شواهد را برای آن فرضیه ارائه دهد. ما حتی می توانیم انتقال مداوم یک بیمار از حالت A به حالت B را بدست آوریم ، جایی که متخصص یا پزشک مشخص می کنند که آن حالت ها چیست. "
اخیراً ، Thiagarajan با استفاده از این روشها ، تصاویر اشعه ایکس سینه از بیماران مبتلا به COVID-19 را که ناشی از رمان SARS-CoV-2 coronavirus است ، استفاده کرد. برای شناخت نقش عواملی مانند جمعیت شناسی ، عادات استعمال دخانیات و مداخلات پزشکی بر سلامتی ، تیاگاراجان توضیح داد كه مدل های هوش مصنوعی باید داده های بسیار بیشتری را از آنچه انسانها قادر به انجام آن هستند ، تجزیه و تحلیل كنند ، و نتایج لازم برای تفسیر متخصصان پزشکی است. وی گفت ، تکنیک های تفسیر و درون یابی نه تنها مدل ها را قوی تر می کنند ، بلکه آنها می توانند روشی کاملاً جدید برای ایجاد مدل هایی برای برنامه های مراقبت های بهداشتی ارائه دهند ، این امر به پزشکان امکان می دهد فرضیه های جدیدی در مورد بیماری و کمک به سیاست گذاران در تصمیم گیری ها ایجاد کنند که بر سلامت عمومی تأثیر بگذارد. ، مانند بیماری همه گیر COVID-19.
تیاگاراگان گفت: "مردم می خواهند این مدل های هوش مصنوعی را در اکتشافات علمی ادغام کنند." وی گفت: "هنگامی که یک عفونت جدید مانند COVID به وجود آید ، پزشکان به دنبال شواهدی برای کسب اطلاعات بیشتر در مورد این ویروس رمان هستند. یک مطالعه علمی منظم همیشه مفید است ، اما این رویکردهای مبتنی بر داده ها که ما تولید می کنیم می توانند به طور قابل توجهی آنالیزهایی را که متخصصان برای یادگیری آن دارند انجام دهند. در مورد این نوع بیماری ها. یادگیری ماشینی می تواند بسیار فراتر از پیش بینی ها بکار رود و این ابزار این کار را با روشی بسیار هوشمندانه امکان پذیر می کند. "
:: بازدید از این مطلب : 151
|
امتیاز مطلب : 160
|
تعداد امتیازدهندگان : 43
|
مجموع امتیاز : 43